تخيّل أنّك تتقدّم لوظيفة. تعلم تماماً أنّك مرشّح قويّ بسيرة ذاتية لافتة، لكنّك لا تتلقّى حتى مكالمة واحدة للمتابعة.
قد لا تدرك ذلك، لكنّ خوارزمية ذكاء اصطناعي تُستخدم لتصفية المتقدّمين، قرّرت أنّك «مخاطرة غير مضمونة». ربما استنتجت أنّك لن تنسجم مع ثقافة الشركة، أو أنّك قد تتصرّف لاحقاً بطريقة قد تُسبّب احتكاكاً ما (مثل الانضمام إلى نقابة عمّالية أو تأسيس أسرة). من المستحيل رؤية منطقها الداخلي، والأصعب من ذلك هو الطعن فيه. ولا يهمّ أنّك تحافظ على خصوصيّتك الرقمية جيداً: لا تشارك تفاصيلك الشخصية، تتجنّب نشر آرائك على الإنترنت، وتمنع التطبيقات والمواقع من تتبّعك. بناءً على التفاصيل القليلة المتاحة عنها، تتنبّأ الخوارزمية بكيفية تصرّفك في العمل استناداً إلى الأنماط التي تعلّمتها من عدد لا يُحصى من الأشخاص الشبيهين بك.
هذه هي الحياة بشكل متزايد في ظل الذكاء الاصطناعي. المصارف تستخدم الخوارزميات لتحديد مَن يحصل على القرض، متعلّمة من المقترضين السابقين لتتوقّع مَن سيتخلّف عن السداد. بعض إدارات الشرطة أدخلت سنوات من بيانات الجرائم والاعتقالات في خوارزميات «الشرطة التنبّؤية»، التي غالباً ما أعادت إرسال عناصرها إلى الدوريات في الأحياء نفسها.
وتستخدم منصّات التواصل الاجتماعي نقراتنا الجماعية لتحديد الأخبار أو المعلومات المضلّلة التي ستُعرض لكلٍّ منا. في كل حالة، قد نأمل أنّ الحفاظ على خصوصية بياناتنا الشخصية يحمي كل واحد منّا من نتائج غير مرغوبة، لكنّ الذكاء الاصطناعي لا يحتاج إلى معرفة ما فعلته أنت بالذات؛ كل ما يحتاج إليه هو معرفة ما فعله أشخاص يشبهونك من قبل. ولهذا السبب لم تعُد الخصوصية مسألة يمكن الدفاع عنها على مستوى الفرد وحده. ومع تكيّفنا مع واقع يعيش فيه الذكاء الاصطناعي كجزء أكبر من حياتنا، علينا أن نمارس سيطرة جماعية على بياناتنا كلّها، لنُحدِّد ما إذا كان استخدامها يصبّ في مصلحتنا أم ضدّها.
في العقد الأول من الألفية، ومع تصاعد القلق بشأن الخصوصية الرقمية، طوّر علماء الكمبيوتر إطاراً لحماية الخصوصية يُعرف باسم «الخصوصية التفاضلية» (Differential Privacy)، يمكنه حماية هوية الأفراد مع الاستمرار في جمع البيانات لفهم أنماط المستخدمين على نطاق أوسع. تعمل الخوارزميات التي تعتمد على الخصوصية التفاضلية عبر إضافة قدر ضئيل من «العشوائية» إلى البيانات، فلا يمكن لأحد تحديد مَن هو الشخص الوارد فيها، من دون أن تتغيّر النتائج العامة.
هذه الحماية تجعل الناس أكثر استعداداً لمشاركة بياناتهم مع أطراف ثالثة، وقد أصبحت هذه الخوارزميات اليوم شائعة الاستخدام. هواتف «آيفون»، من شركة «آبل»، تعتمدها لجمع معلومات عن سلوك المستخدمين والاتجاهات العامة، من دون كشف هوية صاحب كل بيانات. كما استخدم الإحصاء السكاني الأميركي لعام 2020 هذه التقنية في تقاريره عن السكان لحماية المعلومات الشخصية للأفراد.
لكنّ الأنماط في البيانات تبقى قائمة، وهي كافية لتوجيه قرارات قوية التأثير. شركة التكنولوجيا Palantir تُطوّر نظام ذكاء اصطناعي يُسمّى ImmigrationOS لصالح هيئة الهجرة والجمارك الأميركية (ICE)، لتحديد الأشخاص المستهدفين بالترحيل وتعقّبهم، من خلال دمج وتحليل مصادر بيانات متعددة (منها الضمان الاجتماعي، إدارة المركبات، مصلحة الضرائب، قارئات لوحات السيارات، وأنشطة جوازات السفر)، متجاوزةً العقبة التي تفرضها الخصوصية التفاضلية.
استُخدمت لمساعدة الجيش الإسرائيلي في غزة حتى من دون معرفة هوية أي فرد على وجه التحديد، يمكن للخوارزمية على الأرجح التنبّؤ بالأحياء وأماكن العمل والمدارس التي يُرجّح وجود المهاجرين غير النظاميِّين فيها. وقد أُفيد أنّ خوارزميات ذكاء اصطناعي تُعرف باسم Lavender وWhere’s Daddy؟ استُخدمت بطريقة مشابهة لمساعدة الجيش الإسرائيلي في تحديد مواقع الأهداف لقصفها في غزة. في قضية تغيّر المناخ، انبعاثات شخص واحد لا تُغيّر الغلاف الجوي، لكنّ انبعاثات الجميع تدمّر الكوكب. وبالطريقة عينها، مشاركة بيانات شخص واحد قد تبدو تافهة، لكنّ مشاركة بيانات الجميع وتكليف الذكاء الاصطناعي باتخاذ قرارات اعتماداً عليها، تُغيّر شكل المجتمع. مشاركة الجميع لبياناتهم لتدريب الذكاء الاصطناعي أمر جيّد إذا اتفقنا على الأهداف المرسومة لذلك الذكاء الاصطناعي. لكنّه ليس كذلك إذا لم نتفق عليها، وإذا كانت قرارات الخوارزميات قد تكلّفنا وظائفنا أو سعادتنا أو حرّيتنا أو حتى حياتنا.
لحماية أنفسنا من الأذى الجماعي، علينا بناء مؤسسات وسنّ قوانين تمنح المتأثرين بقرارات الذكاء الاصطناعي صوتاً في كيفية تصميم تلك الخوارزميات وفي الغايات التي تسعى إلى تحقيقها. الخطوة الأولى هي الشفافية. تماماً كما تُلزَم الشركات بتقديم تقارير مالية، يجب أن تُلزَم الشركات والهيئات التي تستخدم الذكاء الاصطناعي بالإفصاح عن أهدافها، وما الذي تسعى خوارزمياتها إلى تعظيمه، سواء كان ذلك عدد النقرات الإعلانية على وسائل التواصل الاجتماعي، أو توظيف عمّال أقلّ مَيلاً للانضمام إلى النقابات، أو زيادة أعداد المرحّلين.
مستقبل الذكاء الاصطناعي لن يُحسم عبر خوارزميات أذكى أو شرائح أسرع، بل سيتوقف على مَن يملك البيانات، وعلى القِيَم والمصالح التي توجّه تلك الآلات.